首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • GLM、MiniMax、Kimi、豆包、千问,国产模型Coding Plan怎么选?一文全套短评

    我购买了所有支持coding plan的最低价套餐用来测试,我的主要编程工具是claude code,如果以Claude Opus 4.6为10分标准,我会根据自己的体验,给这些coding plan里支持的国产打分 下面,就让我们来看看,国内各个厂商提供的Coding Plan套餐,哪家最能打。 GLM 最早在国内学习海外模型提供Coding Plan,并通过社媒和github大量推广,在其上市前形成了较好的社区反应。 再说下模型,GLMcoding plan中,仅支持glm-4.7、glm-4.6、glm-4.5和glm-4.5-air,不过大部分情况下,我们都会使用glm-4.7。 总结起来,就是国产模型的coding plan面临着模型能力不足和自身服务性价比缺陷问题。希望国产之光deepseek能早日发布新模型和coding plan

    10.3K20编辑于 2026-03-03
  • 来自专栏【腾讯云开发者】

    刚刚,腾讯云Coding Plan全新上架!

    腾讯云大模型 Coding Plan 订阅服务全新上架,现支持 Tencent HY 2.0 Instruct、GLM-5、Kimi-K2.5、MiniMax-M2.5 等多个最新模型,更多模型持续接入中 Coding Plan 新客限量优惠活动,每天上午 10 点开始,24 点结束,库存有限,先到先得。 研究发现,腾讯云 Coding Plan 搭配 Lighthouse 部署 OpenClaw 养虾,效果更佳,快来点击阅读原文,立即体验吧! 如您还有其他问题,可扫码加咨询群沟通更多详细信息!

    11500编辑于 2026-03-12
  • 来自专栏测试开发技术

    Token花在哪了?Claude Code消耗监控统计神器(四种实用方法)

    这里以智谱AI为例,在智谱AI大模型中,提供了一个名为glm-plan-usage 插件 该插件允许您在 Claude Code 中直接查询 GLM Coding Plan 的当前配额和使用统计信息。 插件安装方式: 1、手工安装 # 安装插件市场 claude plugin marketplace add zai-org/zai-coding-plugins # 安装插件 claude plugin install glm-plan-usage@zai-coding-plugins 2、通过自动助手安装 npx @z_ai/coding-helper 运行 npx @z_ai/coding-helper 开始 -> 编码工具 -> Claude Code -> 插件市场 插件启用后,进入项目目录并启动 Claude Code,使用以下命令检查您的当前配额和使用情况: /glm-plan-usage:usage-query 执行上述命令,从调用过程记录可以发现,执行/glm-plan-usage:usage-query 本质上其实也是调用了一个Claude Skills技能来实现的。

    2.8K10编辑于 2026-01-26
  • 来自专栏玩转OpenClaw

    轻量云OpenClaw功能更新日志

    2026年3月9日 ⚙️ OpenClaw配置面板 • Minimax Coding Plan新增模型:M2.5 Highspeed、M2.5 Lightning• 腾讯云Coding 命令,支持国内镜像Skill安装 ⚙️ OpenClaw配置面板 • 支持搜索ClawHub的Skills• 新增可配置模型:火山引擎Coding Plan QQ插件 无法发送图片的问题• 优化QQ插件内置提示词、重连机制与内置Skills 钉钉插件 钉钉机器人支持加入群聊 2026年2月12日 ⚙️ OpenClaw配置面板 • 支持配置模型:GLM PlanGLM国内-Coding PlanGLM国际-Coding Plan 2026年2月10日 OpenClaw应用模板 • OpenClaw版本更新至2026.2.9• 预装 支持同时配置多个模型与通道• 支持展示已配置的模型、通道与Skills• 支持切换模型 2026年2月2日 ⚙️ OpenClaw配置面板 • 支持更多模型配置:MiniMax、Kimi、GLM

    1.8K99编辑于 2026-03-12
  • Aish,shell ai辅助工具

    当然,执行之前需要给它配置一个大模型~/.aish/config.toml:profile = "glm" model_context_window = 200000 [model_providers.zhipu ] name = "GLM Coding Plan" base_url = "https://open.bigmodel.cn/api/coding/paas/v4" env_key = "ZHIPU_API_KEY chat" request_max_retries = 4 stream_max_retries = 10 stream_idle_timeout_ms = 300000 [profiles.glm ] model = "glm-4.7" model_provider = "zhipu" 默认,它只读,不会改写文件。

    12510编辑于 2026-02-17
  • 如何用终端部署一个openclaw个人专属QQ机器人

    大模型API选购这里我们要购买coding plan的API,这是部署openclaw最具性价比的方式。 (部分内容需要选择后按空格勾选后再回车) Yes / QuickStart / Custom Provider Custom Provider:这里的API Base URL从购买的coding plan 以百炼coding plan为例,我们通常可以在这个订阅页面找到API创建的入口 找到服务商的Base URL 两个任意哪个都可以(默认选第一个)复制粘贴到管理员终端后回车 选择:Paste API Key Model ID:输入自己订阅的coding plan支持的模型名称,例如:kimi-k2.5,glm-5等。 出现这个验证成功说明配置好模型了。 /glm-5(模型提供商/模型)设置完需要重启生效。

    69380编辑于 2026-03-10
  • 来自专栏Impala

    Impala Plan Schedule

    Join 等算子, 产生的Join Probe 和Join Builder 算子, 即一个Plan 可能生成多个Plan Fragment 2 BE 过程中, 因为是MPP 数据, 需要将一个Plan 11507). 10: optional string absolute_path // Whether the HDFS file is stored with erasure coding : request_.plan_exec_info) { for (const TPlanFragment& fragment: plan_exec_info.fragments) { std::vector<int32_t> plan_node_to_fragment_idx_; ​ /// Maps from plan node id to its index in plan.nodes _ and plan_node_to_plan_node_idx_.

    35720编辑于 2024-09-23
  • 从 Vibe coding 到 Agentic Engineering——GLM-5 如何开启智能体工程新时代

    几乎同步,智谱AI于近日开源 GLM-5 并发布长达40页的技术报告,标题为 From Vibe Coding to Agentic Engineering,正式将 Agentic Engineering 如果说 Vibe coding 是让 AI 帮你写一个贪吃蛇,它就直接输出一个可运行的贪吃蛇 demo;那么 Agentic Engineering 则更进一步:当你告诉系统“这个程序里有一个我找不到的 GLM-5 能够实现如此强大的 Agentic 能力,核心在于其底层算法的重大突破。 在此基础上,我们可以进一步来看 GLM-5 完整的训练方案是如何设计与落地的。第一,分层训练不同能力。 回到最核心的问题:从 Vibe coding 到 Agentic Engineering 这个转变意味着什么?它意味着 AI 训练的扩展方式彻底变了。

    64010编辑于 2026-02-26
  • 来自专栏玩转OpenClaw

    🔥🔥🔥玩转OpenClaw|云上OpenClaw一键秒级部署指南

    此处选择腾讯云模型Coding Plan套餐(推荐)、腾讯云DeepSeek、MiniMax Coding Plan作为示例进行介绍,您可以按需选择。 目前腾讯云模型Coding Plan已集成腾讯混元、智谱GLM、Kimi-K2.5、MiniMax M2.5等多种不同的模型,同时支持系统自动选择合适的模型。 进入腾讯云Coding Plan选购页,选择适合的Coding Plan套餐后,跟随页面指引完成支付:选购完成后,直接返回OpenClaw配置面板,单击页面内的已购买,继续配置:稍等片刻后即可完成腾讯云 示例三:MiniMax Coding Plan套餐首先您需要购买MiniMax Coding Plan套餐(点击前往)。 购买套餐成功后,进入MiniMax Coding Plan的API Key管理页(点击前往,注意Coding Plan的API Key和普通的API Key相互独立),点击页面内的重置并复制按钮,复制API

    368.3K96257编辑于 2026-03-11
  • 敢涨价30%的大模型:智谱GLM-5凭什么让投资者疯狂买单?

    逆势涨价的底气 2月12日,当整个AI行业还在价格战中厮杀时,智谱AI做了一个让人瞠目的决定:GLM Coding Plan套餐价格上调30%以上。 这标志着大模型正在经历一场根本性转变:从"氛围编程"(Vibe Coding)向"智能体工程"(Agentic Engineering)演进。 技术细节:低幻觉率的秘密 GLM-5采用了新的RL "slime"框架,显著降低了幻觉率。在SuperCLUE中文大模型基准测试中,国产开源模型正在实现逆袭,而GLM-5无疑是其中的佼佼者。 这让开发者能够快速将GLM-5集成到自己的应用中,形成强大的网络效应。 未来展望 智谱首席科学家唐杰表示,GLM-5是公司"冲击AGI技术高地"的关键里程碑。 虽然距离真正的通用人工智能还有很长的路要走,但GLM-5在多模态理解、复杂推理和自主学习方面的表现,确实让人看到了希望。 对于普通开发者来说,GLM-5的开源意味着更多可能性。

    17310编辑于 2026-03-10
  • 来自专栏ClickHouse

    Impala fe query plan

    if (child.getSink() instanceof JoinBuildSink) continue; // Propagate the plan and cohort IDs to children that are part of the same plan. (fragment.getCohortId()); createBuildPlans(child, buildCohortId); } }​下一篇 讲impala be query plan

    68531编辑于 2022-09-27
  • Plan energy, supplemented by time

    Planning does not mean predicting, that is to say, in planning, it may not be possible to completely plan For example, i plan to prepare for the postgraduate exams before the start of the school yet, but the In summary, i have revised my plan to improve professionalism, and the preparation for the postgraduate But if you plan your schedule in a time of lack of energy, this thins will be very bad. Author: Frytea Title: Plan energy, supplemented by time Link: https://blog.frytea.com/archives/68/

    41520发布于 2020-07-16
  • 来自专栏测试开发技术

    Claude Code+GLM 5 安装配置与10个快速上手技巧!

    第3步:准备国内大模型API Key (智谱GLM为例) 具体配置方法: 1、注册账号:访问 智谱开放平台(https://www.bigmodel.cn/glm-coding? 可以在这里购买:https://www.bigmodel.cn/glm-coding? 第4步:Claude Code 配置智谱GLM 有了 Coding 套餐之后,就可以在Claude Code中配置使用了(主要是配置环境变量)。 Coding Tool Helper 是一个编码工具助手,快速将您的GLM编码套餐加载到您喜爱的编码工具中。安装并运行它,按照界面提示操作即可自动完成工具安装,套餐配置,MCP服务器管理等。 官方配置参考手册:https://docs.bigmodel.cn/cn/coding-plan/tool/claude 第5步:Claude Code中验证GLM-5基本功能 配置完成后,比如在Claude

    83240编辑于 2026-03-10
  • GLM-5已发布,大模型商业路殊途同归,请做好AI成本上涨的准备!

    不够有诚意 首先,在编程套餐(Coding Plan)中,已订阅用户并不能立即享受,只有涨价后的Max订阅用户可以使用该模型。 (我看到官网有一个glm-5-code模型,没有在限频页面列出,或许没有限制。) 最后,价格上,GLM-5偏离了原本超高性价比的路线,新模型输入价格是原来的2倍,输出是原来的2.25倍。 GLM-5 发布后,其 Coding Plan 价格大幅上调,是国内首个敢于逆势涨价的厂商。 而glm-5首次展现了中国模型的暴力规模化参数,以往国产模型大多在百亿或千亿(300B 左右)参数徘徊,以追求推理成本的极致压缩,而GLM-5 选择了 744B 总参数、40B 激活参数的庞大架构。 GLM-5 实现了全栈国产算力训练(完全基于华为昇腾集群),不再依赖 Nvidia GPU。

    41810编辑于 2026-03-03
  • 来自专栏白山头讲IC

    IO plan命令备忘

    本文为基于ICCII的IO plan的备忘录 创建bump array 使用命令create_bump_array IO ring + corner cell 其实,直接用create cell然后手工挪过去也不费事

    72230发布于 2020-08-11
  • 本周开源更新

    我在vibe coding的过程中,有自己的一些想法,因此,做了aicodeswitch这个工具,让我的claude code可以更合理的分配tokens资源,尽可能的减少成本。 支持了MCP管理,主要是针对glm和minimax两家模型,它们没有多模态能力,想要理解图片,可以调用它们coding plan里面的MCP工具,因此,我在规则里增加了图像理解路由到MCP的功能,你可以简单配置后

    20910编辑于 2026-03-03
  • 来自专栏MongoDB中文社区

    深入解析MongoDB Plan Cache

    前段时间笔者遇到一个MongoBD Plan Cache的bug,于是深究了下MongoDB优化器相关源码。在这里分享给大家,一方面让大家知道MongoDB优化器工作原理,一方面就是避免踩坑。 jira.mongodb.org/browse/SERVER-32452 接下来我们就进入正题,本文分为以下4个章节: 背景 MongoDB生成执行计划是如何选择索引的 过滤符合条件的索引 选择合适的索引 MongoDB Plan 03 MongoDB Plan Cache机制 上面我们提到了MongoDB是如何选择索引最后生成最优的执行计划,那MongoDB会将最优的执行计划缓存到cache中,等待下次同样的SQL执行的时候会采用

    89940发布于 2019-04-22
  • 来自专栏自然语言处理

    【LLM系列之GLMGLM: General Language Model Pretraining with Autoregressive Blank Infilling

    GLM通过添加2D位置编码并允许任意顺序预测跨度来改进空白填充预训练,从而在NLU任务上比BERT和T5获得了性能提升。 通过变化空白数量和长度,可以针对不同类型的任务对GLM进行预训练。 1 GLM预训练 GLM 将 NLU 任务制定为包含任务描述的完形填空问题,这些问题可以通过自回归生成来回答。 1.1. 自回归空白填充 GLM通过优化自回归空白填充目标进行训练。 微调GLM 使用 GLM 将情感分类任务制定为空白填充。 通常,对于下游 NLU 任务,会在模型之上添加线性分类器,从而导致预训练和微调之间的不一致。 在这种情况下,GLM 使用交叉熵损失进行了微调。 3 实验结果 3.1 SuperGLUE 预训练的 GLM 模型针对每个任务进行了微调。 GLM515M ( GPT Large的 1.5 )可以进一步超越GPT Large。 4 结论 GLM是一种用于自然语言理解和生成的通用预训练框架。

    2.6K50编辑于 2023-08-25
  • 来自专栏Akilarの糖果屋

    SAO UI Plan -- Ranklist

    把SAO Utils Web也归入了 SAO UI PLAN ,复现SAO 风格界面算是告一段落啦。 这个榜单一开始是准备拿来当做打赏榜单的。可是临到头却发现没人打赏。

    80420发布于 2021-06-11
  • 来自专栏ACM小冰成长之路

    HDU-3757-Evacuation Plan

    该文是关于计算几何中的一个经典问题,给定平面上两个不同点,需要找到一条直线,使得这两个点到直线的距离之和最小。文章介绍了该问题的数学模型和算法,并提供了具体的示例和代码。该问题在计算机科学和软件工程领域有广泛的应用,例如在图形学、网络路由等领域。

    604100发布于 2018-01-09
领券